Mein Arbeitgeber Als erfolgreicher, wachsender mittelständischer Anbieter relevanter und innovativer daten- und KI-getriebener Lösungen zur Optimierung der Entscheidungsfindung für namhafte Unternehmen bietet dieser Arbeitgeber eine aufgeschlossene, agile und von Fortschritt geprägte Kultur, in der Teamwork, Eigenverantwortung und kontinuierliches Lernen von hoher Bedeutung sind Gestaltungsspielraum in anspruchsvollen Projekten, langfristige Perspektiven und Flexibilität sind inklusive Konzeption, Umsetzung und Weiterentwicklung von Generative-AI- und NLP-Systemen, die Kundenanforderungen in Bezug auf Performance, Latenz, Kosten und Erweiterbarkeit optimal erfüllenRegelmäßige Abstimmung mit Stakeholdern bzgl. der Anforderungen Enge Zusammenarbeit mit EntwicklerInnen und Technical Leads für die Umsetzung und Use Cases wie Retrieval-basierten Chatbots, Agentensystemen oder Fine-Tuning von SprachmodellenPlanung und Implementierung robuster Machine Learning-Pipelines nach Best Practices - auf Azure, AWS oder GCP Input bei komplexen technischen Herausforderungen sowie Präsentation von LösungsansätzenAktive Verfolgung neuer Entwicklungen in NLP und KI, um KundInnen stets moderne, hochwertige Lösungen anzubieten Erfolgreich abgeschlossenes Studium der (Wirtschafts-)Informatik oder eine vergleichbare AusbildungEinschlägige Berufserfahrung in Data Science und idealerweise im Umgang mit mehreren der typischen NLP-/LLM-Tools wie OpenAI APIs, Bedrock, Azure AI Foundry, LangChain, LangGraph, Instructor, Hugging Face, Tokenizers, Vektordatenbanken, performanter Inferenz, Model Deployment, MCP/A2A und Datensatz-ErstellungSehr gute Kenntnisse in Machine Learning und Deep Learning, insbesondere im Bezug auf Transformer-Modelle, LLMs und Generative KISicherer Umgang mit produktionsreifen Frameworks wie PyTorch sowie mit Agent-Frameworks wie LangGraph, SmolAgents, OpenAI Agent SDK, CrewAI oder PydanticAITiefes Verständnis der Model-Optimierung mit PEFT wie QLoRA, Instruction Fine-Tuning, Post-Training, Inference-Optimierung und Embeddings Sicher in Workflows wie Conversational AI, RAG, Info Extraction, Tool Calling, LLM-EvaluationKenntnisse in Agentic RAG, GraphRAG, Multi-Agent-Systemen, Text-to-SQL und Code RetrievalSehr gutes Verständnis für Deployments und MLOps auf Azure, GCP oder AWSHoher Anspruch an Softwarequalität und die Fähigkeit, sauberen, performanten, skalierbaren Code zu schreiben und KI-Systeme produktiv einzusetzenDie Fähigkeit, komplexe Anforderungen in technische Lösungen zu übersetzen und auch Fachfremden sicher zu vermitteln sowie gute Deutsch- und Englischkenntnisse Eigenverantwortliches Arbeiten und Mitgestaltungsmöglichkeiten durch kurze EntscheidungswegeWeiterentwicklung durch Fokus auf Innovation: Die vielfältigen und abwechslungsreichen Projekte drehen sich um die Entwicklung intelligenter Algorithmen, datenbasierter Strategien und maßgeschneiderter KI-LösungenEngagiertes, dynamisches, konstruktives Team mit starkem Zusammenhalt und einer offenen Feedback-KulturSehr gut angebundene, moderne Räumlichkeiten und hochwertiges technisches EquipmentFlexibel planbarer remote-Anteil von bis zu 40%, sogar zweitweise aus dem EU-AuslandZuschuss zum Deutschland-Ticket, zu Sport- und Wellnessangeboten sowie zur Kinderbetreuung Gehaltsinformationen Erfahrungsabhängig bis zu 100.000 € p.a.
Mehrjährige Erfahrung im DevOps- oder Platform-Engineering-Umfeld Sehr gute Kenntnisse in Kubernetes (Deployment, Betrieb, Troubleshooting) Erfahrung mit GitOps-Ansätzen und Tools wie ArgoCD, Helm und Kustomize Fundierte Kenntnisse in Logging (Loki, ELK), Monitoring & Alerting (Prometheus, Grafana) und Security (RBAC, Network Policies, Secrets, Pod Security) Verständnis für SaaS-Architekturen und Betriebsmodelle Erfahrung mit Infrastructure as Code Idealerweise Kenntnisse in Crossplane und Keycloak Gute Kommunikationsfähigkeit und Freude an teamübergreifender ZusammenarbeitGute Deutschkenntnisse (mind.
Mein Arbeitgeber Als erfolgreicher, wachsender mittelständischer Anbieter relevanter und innovativer daten- und KI-getriebener Lösungen zur Optimierung der Entscheidungsfindung für namhafte Unternehmen bietet dieser Arbeitgeber eine aufgeschlossene, agile und von Fortschritt geprägte Kultur, in der Teamwork, Eigenverantwortung und kontinuierliches Lernen von hoher Bedeutung sind Gestaltungsspielraum in anspruchsvollen Projekten, langfristige Perspektiven und Flexibilität sind inklusive Konzeption, Umsetzung und Weiterentwicklung von Generative-AI- und NLP-Systemen, die Kundenanforderungen in Bezug auf Performance, Latenz, Kosten und Erweiterbarkeit optimal erfüllen Regelmäßige Abstimmung mit Stakeholdern bzgl. der Anforderungen Enge Zusammenarbeit mit EntwicklerInnen und Technical Leads für die Umsetzung und Use Cases wie Retrieval-basierten Chatbots, Agentensystemen oder Fine-Tuning von Sprachmodellen Planung und Implementierung robuster Machine Learning-Pipelines nach Best Practices - auf Azure, AWS oder GCP Input bei komplexen technischen Herausforderungen sowie Präsentation von Lösungsansätzen Aktive Verfolgung neuer Entwicklungen in NLP und KI, um KundInnen stets moderne, hochwertige Lösungen anzubieten Erfolgreich abgeschlossenes Studium der (Wirtschafts-)Informatik oder eine vergleichbare Ausbildung Einschlägige Berufserfahrung in Data Science und idealerweise im Umgang mit mehreren der typischen NLP-/LLM-Tools wie OpenAI APIs, Bedrock, Azure AI Foundry, LangChain, LangGraph, Instructor, Hugging Face, Tokenizers, Vektordatenbanken, performanter Inferenz, Model Deployment, MCP/A2A und Datensatz-Erstellung Sehr gute Kenntnisse in Machine Learning und Deep Learning, insbesondere im Bezug auf Transformer-Modelle, LLMs und Generative KI Sicherer Umgang mit produktionsreifen Frameworks wie PyTorch sowie mit Agent-Frameworks wie LangGraph, SmolAgents, OpenAI Agent SDK, CrewAI oder PydanticAI Tiefes Verständnis der Model-Optimierung mit PEFT wie QLoRA, Instruction Fine-Tuning, Post-Training, Inference-Optimierung und Embeddings Sicher in Workflows wie Conversational AI, RAG, Info Extraction, Tool Calling, LLM-Evaluation Kenntnisse in Agentic RAG, GraphRAG, Multi-Agent-Systemen, Text-to-SQL und Code Retrieval Sehr gutes Verständnis für Deployments und MLOps auf Azure, GCP oder AWS Hoher Anspruch an Softwarequalität und die Fähigkeit, sauberen, performanten, skalierbaren Code zu schreiben und KI-Systeme produktiv einzusetzen Die Fähigkeit, komplexe Anforderungen in technische Lösungen zu übersetzen und auch Fachfremden sicher zu vermitteln sowie gute Deutsch- und Englischkenntnisse Eigenverantwortliches Arbeiten und Mitgestaltungsmöglichkeiten durch kurze Entscheidungswege Weiterentwicklung durch Fokus auf Innovation: Die vielfältigen und abwechslungsreichen Projekte drehen sich um die Entwicklung intelligenter Algorithmen, datenbasierter Strategien und maßgeschneiderter KI-Lösungen Engagiertes, dynamisches, konstruktives Team mit starkem Zusammenhalt und einer offenen Feedback-Kultur Sehr gut angebundene, moderne Räumlichkeiten und hochwertiges technisches Equipment Flexibel planbarer remote-Anteil von bis zu 40%, sogar zweitweise aus dem EU-Ausland Zuschuss zum Deutschland-Ticket, zu Sport- und Wellnessangeboten sowie zur Kinderbetreuung Gehaltsinformationen Erfahrungsabhängig bis zu 100.000 € p.a.
Über uns Wir entwickeln und betreiben eine cloudbasierte SaaS-Plattform auf AWS & Kubernetes für den regulierten Betrieb und suchen dich als Platform Security Engineer, der/die Security von der Architektur bis zum Betrieb lebt.Abgeschlossenes Studium der Informatik, IT-Sicherheit oder vergleichbare Qualifikation Mehrjährige Erfahrung im Bereich Cloud Security Engineering oder Platform Security, idealerweise im regulierten Umfeld Erfahrung mit PAM-Lösungen, vorzugsweise CyberArk Privilege Cloud Gute Kenntnisse in Vulnerability Management, Security Monitoring, Incident Handling Erfahrung mit Git, Infrastructure as Code und Automatisierung Freude an Teamarbeit, offener Kommunikation und einer Ende-zu-Ende Verantwortung ohne Silodenken Gute Deutsch- und Englischkenntnisse in Wort und Schrift Was uns wichtig ist Teamspirit vor Ego: Du arbeitest gerne mit anderen Disziplinen zusammen und siehst Security als Enabler, nicht als Blocker Automation first: Du möchtest Security-Prozesse standardisieren und automatisieren, nicht manuell verwalten Hands-on-Mentalität: Du konzipierst nicht nur, du implementierst auch
Damit überzeugst du uns Mehrjährige Consulting-Erfahrung im Cloud-, DWH-, Data Lake- oder Datenmanagement-Umfeld. Sehr gute Kenntnisse in Architektur, Konzeption und Umsetzung von Datenplattformen. SQL und Python gehören für Dich zum Daily Business. Fundierte Praxis mit Snowflake (Performance, Security, Kosten, Modellierung).
Damit überzeugst du uns Mehrjährige Consulting-Erfahrung im Cloud-, DWH-, Data Lake- oder Datenmanagement-Umfeld. Sehr gute Kenntnisse in Architektur, Konzeption und Umsetzung von Datenplattformen. SQL und Python gehören für Dich zum Daily Business. Fundierte Praxis mit Snowflake (Performance, Security, Kosten, Modellierung).
Gutes Verständnis von Softwareentwicklungsprozessen, von objektorientiertem Design und einigen wichtigen OO-Designpattern sowie von iterativer und inkrementeller Vorgehensweise. Fundierte Kenntnisse Python und Django. Erfahrung in testgetriebener Entwicklung (TDD). Basiskenntnisse der Linux Administration. Verständnis von Sinn, Verwendung und Entwurf von Mock-Objekten sowie von sinnvollen Designprinzipien, wie sie z.B. in „Clean Code“ propagiert werden.
Konzeption und Implementierung moderner Datenarchitekturen für Anwendungen wie semantische Suche, Knowledge-Management und Text-to-SQLAnforderungsanalyse und -definition und Entwicklung skalierbarer Daten- und KI-Lösungen in enger Zusammenarbeit mit Kund/innen Implementierung von Datenpipelines und -infrastrukturen für große Mengen strukturierter und unstrukturierter Daten Sicherstellen der Datenqualität, Sicherheit und Governance und Erarbeitung von Best PracticesAufbau und Betrieb skalierbarer Cloud-Infrastrukturen, automatisiere Deployments und MonitoringStrategische Beratung zu Datenarchitekturen, Technologien und ToolsAktiver Wissenstransfer im Team zur Weiterentwicklung des Data Engineerings anhand moderner NLP-Ansätzen wie LLMs, Embeddings, Knowledge Graphs und RAG Erfolgreich abgeschlossenes Studium der (Wirtschafts-)Informatik oder eine vergleichbare AusbildungEinschlägige Berufserfahrung in Data Engineering und idealerweise auch Data ArchitectureSehr gute Kenntnisse in der Programmierung mit Python, SQL und ShellSicherer Umgang mit Infrastructure-as-Code, z.B. Terraform, und CI/CD-WorkflowsTiefes Verständnis moderner Datenarchitekturen samt Data Lakes, Lakehouses, Warehouses sowie ETL-/ELT-Prozesse und DatenmodellierungErfahrung im Umgang mit Cloud-Plattformen wie Azure, AWS, GCP und Tools wie Databricks oder SnowflakeSehr gutes Verständnis für Data Governance, Sicherheit und DatenschutzIdealerweise erste Erfahrung mit NLP-Anwendungen wie LLMs, RAG, Knowledge Graphs, Text-to-SQLDie Fähigkeit, komplexe Anforderungen in technische Lösungen zu übersetzen und auch Fachfremden sicher zu vermittelnKommunikationsstärke auf Deutsch und Englisch Eigenverantwortliches Arbeiten und Mitgestaltungsmöglichkeiten durch kurze EntscheidungswegeWeiterentwicklung durch Fokus auf Innovation: Die vielfältigen und abwechslungsreichen Projekte drehen sich um die Entwicklung intelligenter Algorithmen, datenbasierter Strategien und maßgeschneiderter KI-LösungenEngagiertes, dynamisches, konstruktives Team mit starkem Zusammenhalt und einer offenen Feedback-KulturSehr gut angebundene, moderne Räumlichkeiten und hochwertiges technisches EquipmentFlexibel planbarer remote-Anteil von bis zu 40%, sogar zweitweise aus dem EU-AuslandZuschuss zum Deutschland-Ticket, zu Sport- und Wellnessangeboten sowie zur Kinderbetreuung Gehaltsinformationen Erfahrungsabhängig bis zu 95.000 € p.a.
Konzeption und Implementierung moderner Datenarchitekturen für Anwendungen wie semantische Suche, Knowledge-Management und Text-to-SQL Anforderungsanalyse und -definition und Entwicklung skalierbarer Daten- und KI-Lösungen in enger Zusammenarbeit mit Kund/innen Implementierung von Datenpipelines und -infrastrukturen für große Mengen strukturierter und unstrukturierter Daten Sicherstellen der Datenqualität, Sicherheit und Governance und Erarbeitung von Best Practices Aufbau und Betrieb skalierbarer Cloud-Infrastrukturen, automatisiere Deployments und Monitoring Strategische Beratung zu Datenarchitekturen, Technologien und Tools Aktiver Wissenstransfer im Team zur Weiterentwicklung des Data Engineerings anhand moderner NLP-Ansätzen wie LLMs, Embeddings, Knowledge Graphs und RAG Erfolgreich abgeschlossenes Studium der (Wirtschafts-)Informatik oder eine vergleichbare Ausbildung Einschlägige Berufserfahrung in Data Engineering und idealerweise auch Data Architecture Sehr gute Kenntnisse in der Programmierung mit Python, SQL und Shell Sicherer Umgang mit Infrastructure-as-Code, z.B. Terraform, und CI/CD-Workflows Tiefes Verständnis moderner Datenarchitekturen samt Data Lakes, Lakehouses, Warehouses sowie ETL-/ELT-Prozesse und Datenmodellierung Erfahrung im Umgang mit Cloud-Plattformen wie Azure, AWS, GCP und Tools wie Databricks oder Snowflake Sehr gutes Verständnis für Data Governance, Sicherheit und Datenschutz Idealerweise erste Erfahrung mit NLP-Anwendungen wie LLMs, RAG, Knowledge Graphs, Text-to-SQL Die Fähigkeit, komplexe Anforderungen in technische Lösungen zu übersetzen und auch Fachfremden sicher zu vermitteln Kommunikationsstärke auf Deutsch und Englisch Eigenverantwortliches Arbeiten und Mitgestaltungsmöglichkeiten durch kurze Entscheidungswege Weiterentwicklung durch Fokus auf Innovation: Die vielfältigen und abwechslungsreichen Projekte drehen sich um die Entwicklung intelligenter Algorithmen, datenbasierter Strategien und maßgeschneiderter KI-Lösungen Engagiertes, dynamisches, konstruktives Team mit starkem Zusammenhalt und einer offenen Feedback-Kultur Sehr gut angebundene, moderne Räumlichkeiten und hochwertiges technisches Equipment Flexibel planbarer remote-Anteil von bis zu 40%, sogar zweitweise aus dem EU-Ausland Zuschuss zum Deutschland-Ticket, zu Sport- und Wellnessangeboten sowie zur Kinderbetreuung Gehaltsinformationen Erfahrungsabhängig bis zu 95.000 € p.a.
Für ein "perfect match" brauchst Du: Fundierte Erfahrung in der Entwicklung mit Dynamics 365, Business Central, Navision Kenntnisse in der Implementierung von Datenintegrationen Gutes Verständnis von D365-Standardmodulen und deren Architektur (z. B. Finance, SCM, Warehouse, Asset Management).
Unser Mandant hat sich als Beratungspartner und Digitalisierungsexperte für Unternehmen aus der Pharmazie, Kosmetik, Medizintechnik, Lebensmittel und Chemie in DACH einen Namen gemacht, gehört hier zu den TOP Playern mit beeindruckendem Marktanteil und wächst weiter IHR AUFGABENGEBIET Unterstützung der Berater bei der Erstellung des funktionalen Designs Prüfung der funktionalen Spezifikation auf technische Machbarkeit Technisches Design der Softwarekomponenten auf Basis konkreter Anforderungen Implementierung einzelner Softwarekomponenten in AL Layout-Anpassung von Reports mit Visual Studio Durchführung von Modultests der implementierten Softwarekomponenten Durchführung von Code Reviews im Rahmen der Qualitätssicherung Analyse und Korrektur von Softwarefehlern IHRE KENNTNISSE Fach-/Hochschulstudium im Bereich Informatik, Wirtschaftsinformatik oder eine vergleichbare Ausbildung gute bis sehr gute Kenntnisse in der Programmierung für Microsoft Dynamics 365 Business Central (AL) gerne Grundkenntnisse in weiteren Programmiersprachen gute Kenntnisse in der Microsoft Dynamics Microsoft Dynamics 365 Business Central Systemarchitektur grundlegende Kenntnisse der Installation und Konfiguration entsprechender Systemarchitektur grundlegende Kenntnisse in Windows Betriebssystemen, MS SQL Server und MS Office Produkten IHRE ERFAHRUNGEN mehrjährige praktische Erfahrung im Bereich Softwareentwicklung in Microsoft Dynamics Microsoft Dynamics 365 Business Central idealerweise praktische Erfahrung in Branchen der Prozessindustrie (Life-Sciences) Du bist ein Teamplayer und pflegst einen offenen Kommunikationsstil IHRE BENEFITS ein Arbeitsumfeld, in dem Du etwas bewegen kannst und Dein Beitrag zählt vielfältige und spannende Aufgaben mit Eigenverantwortung und Freiraum gelebter Teamgeist und ein kollegiales Miteinander vielfältige berufliche Weiterentwicklungsmöglichkeiten 100% Homeoffice eine attraktive Vergütung technisch hochwertige Arbeitsmittel eine moderne IT Infrastruktur IHR PRIMEPEOPLE PROZESS Schicken Sie uns gerne Ihre Unterlagen oder greifen Sie direkt zum Telefon.
Unser ideales Profil Masterabschluss in Informatik, Mathematik/Statistik, Wirtschaftswissenschaften/Ökonometrie oder einem verwandten Fachgebiet.Mehrjährige Berufserfahrung in quantitativer Datenanalyse oder eine Promotion mit mindestens einem Jahr relevanter Berufserfahrung im Bereich Machine‑Learning‑Forschung.Sehr gute Kenntnisse und tiefes Verständnis von Machine‑Learning‑Methoden, sowohl klassisch als auch Deep Learning.Relevante Erfahrung mit Natural Language Processing (NLP) zur Extraktion strukturierter Konzepte aus unstrukturiertem Freitext, einschließlich Design, Training und Evaluierung von Information‑Extraction‑Pipelines.Sehr starke technische Fähigkeiten in Python, SQL und dem Hadoop‑Ökosystem.Erfahrung in der Anwendung von KI-/Machine‑Learning‑Methoden auf geschäftliche Fragestellungen.Sehr gute Kenntnisse fortgeschrittener statistischer und ökonometrischer Methoden in Theorie und Praxis.Erfahrung im Umgang mit Big Data.Fähigkeit, sauberen, wiederverwendbaren, produktionsreifen Code zu schreiben.Hervorragende Kommunikationsfähigkeiten (schriftlich und mündlich), einschließlich technischer Projektaspekte, Dokumentation, Ergebnisinterpretation und geschäftlicher Empfehlungen.Ausgeprägtes analytisches Denken und logische Problemlösungskompetenz, starke Qualitätsorientierung.Kenntnisse des Pharmamarktes und Erfahrung mit pharmazeutischen Daten (medizinische Daten, Krankenhausdaten, Apothekendaten, Abrechnungsdaten) sind von Vorteil, aber nicht zwingend erforderlich.Selbstständige Projektsteuerung.Fließende Deutsch- und Englischkenntnisse.